首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏超级码力

    🧭 Web Scraper 学习导航

    Web Scraper 也可以爬取这种类型的网页。 相关的教程可见:Web Scraper 控制链接分页、Web Scraper 抓取分页器类型网页 和 Web Scraper 利用 Link 选择器翻页。 Web Scraper 可以 Element click 选择器抓取这种分页网页,相关教程可见:Web Scraper 点击「下一页」按钮翻页。 我们可以利用 Web Scraper 的 Link 选择器来抓取这种组合网页,具体操作可以看教程:Web Scraper 抓取二级网页。 Web Scraper 的优点 轻量:非常的轻量。上手只需要一个 Chrome 浏览器和一个 Web Scraper 插件。

    2.3K42编辑于 2022-02-23
  • 来自专栏超级码力

    web scraper 提问须知

    为了让每次沟通都简单高效,快速定位问题,有关 web scraper 的疑惑请尽量按照下文的格式提问: 1.指出教程中的疑惑点 由于微信号文章发布后就没有办法改文章了,我建议大家去 https://www.cnblogs.com /web-scraper 这个网址看教程,我会持续跟进 web scraper 的更新和教程案例网站的变更,避免出现教程过时的情况。 2.检查版本号 提问前最好先检查一下 web scraper 的版本号。 本文教程只适用于 0.4.1 及以上版本 ,因为我写教程时用的 0.4.1 版本。低于此版本的爬虫插件无法保证教程有效。 4.描述问题 web scraper 爬不到数据,会有很多因素。提问前最好先定位一下问题:是元素无法勾选?还是无法翻页?导出数据失败还是抓取页面异常崩溃?

    60640发布于 2020-07-08
  • 来自专栏网络安全攻防

    Pentest Skill

    当你出于内网环境中时可以通过mstsc来对目标主机内网服务端口是否开发进行简易探测,探测手法如下:

    33120编辑于 2022-09-07
  • 来自专栏网络安全攻防

    Dump LSASS SKill

    获取Windows用户的凭证信息是渗透过程中至关重要的一步,如果没有杀软,那么只要有权限想怎么读就怎么读,当有杀软时就得用一些特别的技巧,本篇文章将简单介绍几种之前在Twitter上看到的小技巧,仅供大家参考

    1.5K20编辑于 2022-09-07
  • 国产小龙虾方案实战:nanobot + 通义千问,钉钉上随时派活

    文档阅读│   ├── web-scraper/SKILL.md    # 网页抓取与摘要│   ├── translator/SKILL.md     # 多语言翻译│   ├── csv-analyzer /SKILL.md   # 数据分析与图表│   ├── code-reviewer/SKILL.md  # 代码审查与 Git│   ├── content-writer/SKILL.md # 文案/ 9 个自定义技能这套方案配置了 9 个自定义 Skills,覆盖日常工作的主要场景:信息检索与文档处理类Skill能力web-scraper抓取网页正文、生成摘要、提取关键信息pdf读取和分析 PDF / 下建个目录,写一个 SKILL.md 描述文件就行。 ,说"分析一下销售趋势" → csv-analyzer 统计数据,生成图表发一份 Word 文档,说"提取里面的表格" → docx-reader 解析文档结构"抓取这个网页的正文内容" → web-scraper

    1.5K40编辑于 2026-03-12
  • 来自专栏玩转OpenClaw

    从 0 到 1:我如何用 WorkBuddy 打造"全网情绪雷达",为我的MoodWave App喂数据

    三、配置Skill:给Agent装上小红书的"眼睛"WorkBuddy的能力扩展依赖Skill(技能)生态。 我需要两个核心SkillSkill1:xiaohongshu-yq(小红书专属Skill)这个Skill基于MCP(ModelContextProtocol)协议,让AI可以直接调用小红书的搜索、帖子详情 /mcp-call.shcheck_login_status#输出:✅已登录Skill2:web-scraper(通用网页抓取)用于抓取微博、知乎等暂无专用Skill的平台,支持5级级联抓取策略(HTTP cp-r~/.workbuddy/skills-marketplace/skills/web-scraper~/.workbuddy/skills/web-scraper两个Skill就绪,Agent的 附:工作流技术说明平台:WorkBuddy(腾讯OpenClaw生态)核心Skill:xiaohongshu-yq(小红书MCP)+web-scraper数据存储:本地CSV+Markdown报告,后续计划迁移到腾讯云

    8100编辑于 2026-04-15
  • 来自专栏Java实战博客

    大模型Skill-Cil – 安装Skill – IDE使用

    本页目录 Toggle 安装技能Cli 找技能 推荐的热门Skill Codex强制安装 技能是 AI 智能体可复用的能力。只需一条命令即可安装,让你的智能体获得流程性知识,从而实现能力增强。 frontend-design 选择你的AI IDE,回车、选择Global、选择Yes、 npx skills add https://github.com/anthropics/skills --skill 选择后,后续AI的IDE就会使用此Skill 推荐的热门Skill # 前端设计 npx skills add https://github.com/vercel-labs/agent-skills - -skill web-design-guidelines # 前端设计(这个排名似乎不搞,但是好像挺不错的。) codex --force 还有一个办法就是:你丢给skill的项目链接,让Codex自己安装Skill

    47920编辑于 2026-04-09
  • 来自专栏超级码力

    简易数据分析 09 | Web Scraper 自动控制抓取数量 & Web Scraper 父子选择器

    【这是简易数据分析系列的第 9 篇文章】 今天我们说说 Web Scraper 的一些小功能:自动控制 Web Scraper 抓取数量和 Web Scraper 的父子选择器。 我们目前有两种方式停止 Web Scraper 的抓取。 1.断网大法 当你觉得数据抓的差不多了,直接把电脑的网络断了。 网络一断浏览器就加载不了数据,Web Scraper 就会误以为数据抓取完了,然后它会自动停止自动保存。 断网大法简单粗暴,虽不优雅,但是有效。缺点就是你得在旁边盯着,关键点手动操作,不是很智能。 其实 Web scraper 提供了对应的解决方案,那就是通过键盘来选择元素,这样就不会触发点击打开新的网页的问题了。 这期介绍了 Web Scraper 的两个使用小技巧,下期我们说说 Web Scraper 如何抓取无限滚动的网页。

    1.7K20发布于 2020-07-09
  • Skill-adapter:让SKILL快速部署到你的ai应用

    但当你了解更多细节之后,skill其实就是prompt工程的新发展。 例如当前很火的pua, 该项目已经达到了10k ⭐事实上他的实现就是一个好的prompting工程 (有兴趣的同学也可以去做一些开源的skill去丰富自己的简历)可复用的skill也迅速加快了人们对他的使用 例如在一个对话场景中,如果我们希望有pua的skill注入,我们还需要去手动修改prompt,一旦有一个新的skill,就得重复、反复的修改,这不仅是一个繁杂的工作,而且对于无需使用的skill还会导致上下文爆炸 → Skill Routing → Skill 选择 → Prompt Augmentation → 现有 LLM 应用的流程,以低侵入的方式直接接入ai应用中from skill_adapter import = SkillConfig( skill_dirs=[".

    22820编辑于 2026-03-23
  • 来自专栏运维有术

    Claude Code Skill 最佳实战:EP01 初识 Skill

    这时候,你需要的就是 Skill。 什么是 Skill Skill 是 Claude Code 的一种扩展机制,本质上是一个包含指令的 Markdown 文件。 一个 Skill 文件长这样: --- name: my-skill description: 这里描述 Skill 的功能和触发时机 --- # Skill 标题 具体的指令内容... 今天介绍的是最基础的 Skill 用法:一个 SKILL.md 文件搞定一切。但 Skill 的能力远不止于此。 下篇预告 下一篇文章,我们会深入 Skill 的进阶用法: 如何在 Skill 中引用外部脚本 如何组织多文件资源(模板、配置、文档) 如何让 Skill 调用 MCP 工具 实战案例:创建一个带模板的周报生成 Skill 敬请期待。

    2K21编辑于 2026-01-27
  • 来自专栏技术人个人品牌训练营

    Skills 推荐清单

    持续更新中 — 发现好用的 Skill 会随时补充进来,欢迎推荐! 一、 技能管理 这类 Skill 帮助你发现、创建和增强 Agent 本身的能力,是使用 OpenClaw 的起点。 Skill 名称 说明 链接 find-skills 在海量技能库中搜索,快速找到你需要的 Skill https://clawhub.ai/JimLiuxinghai/find-skills skill-creator 创建自己的专属技能,定制个性化工作流 https://clawhub.ai/skills/skill-creator skill-vetter 安全审查工具,安装任何社区 Skill 前先用它扫一遍, https://clawhub.ai/skills/mcporter n8n 通过 n8n API 触发和管理自动化工作流 https://clawhub.ai/skills/n8n Playwright Scraper 模拟真实浏览器,带反爬的网站也能抓 https://clawhub.ai/3coco3/playwright-scraper 十、 智能家居 如果你在 Mac 上跑 OpenClaw,这些原生 Skills

    42910编辑于 2026-03-31
  • 来自专栏Python大数据分析

    web scraper无代码爬虫工具怎么入门?

    Web Scraper是一款功能丰富的浏览器扩展爬虫工具,有着直观的图形界面,无需编写代码即可自定义数据抓取规则,高效地从网页中提取结构化数据 而且Web Scraper它支持灵活的数据导出选项,广泛应用于电商监控 Web Scraper的安装也很简单,在Chrome应用商店里搜索“Web Scraper”,找到该插件并点击“添加至Chrome”按钮。 安装好Web Scraper后,需要在开发者工具中使用它,按F12键打开开发者模式能找到Web Scraper功能区,在这里可以新建并配置爬虫,你也不需要写任何代码就能抓取数据。 下面讲讲实践案例,使用Web Scraper爬取抖音评论数据。 首先,按F12打开开发者界面,点击Web Scraper按钮,会进入到操作界面。 而且Web Scraper抓取的数据形式有限,适合文本这样简单的数据需求,对于图片、视频就会比较困难。

    51610编辑于 2024-09-25
  • 来自专栏C/C++基础

    Linux 命令(190)—— skill 命令

    文章目录 1.命令简介 2.命令格式 3.选项说明 4.常用示例 参考文献 1.命令简介 skill 命令用于向选定的进程发送信号。 2.命令格式 skill [signal] [options] expression 默认信号为 TERM。 expression 可根据不同选项来区分类型,可以是:终端、用户、pid、命令。 skill -STOP bash (4)唤醒暂停的进程(进程名)。 skill -CONT bash (5)停止指定用户的进程。 skill -STOP -u <user> (6)停止所有在 PTY 装置上的程序 skill -KILL -t pts/* (7)暂停所有的 ls 命令进程,而不是 ls 用户。 skill -STOP -c ls 参考文献 skill(1) - Linux manual page - man7.org

    1.3K10编辑于 2022-11-05
  • Skill到底是什么?从「同事.skill」爆火说起

    大师兄.skill:把毕业的师兄蒸馏成能继续开组会的AI 笑完之后,一个严肃的问题浮出水面:Skill到底是什么?为什么它能承载这么多的期望? 什么是Skill? 一句话定义:Skill是AI Agent的「工作手册」,教它一项具体技能。 一个Skill = 一个文件夹,最少包含一个SKILL.md文件。 Skill通过标准化流程和规范来解决这些问题。 它承载了什么期望? 从「同事.skill」的热度可以看出,人们对Skill的期望已经从「让AI能干活」升级到「让AI能复刻人」。 Skill与Harness:都是规则,层级不同 很多人分不清Skill和Harness。 Skill则是运行在Harness上的「应用程序」。 动手:5分钟写一个自己的Skill 理论讲完了,来点实际的。我们写一个「每日站会助手」的Skill

    8610编辑于 2026-04-14
  • 来自专栏AI进修生

    各家都在养“龙虾”, AstronClaw + Playwright 爬虫版,是这么跑的

    爬虫版 Playwright —— Playwright_Scraper_Skill AI Agent 的浏览器能力有两层: 第一层是 浏览器控制能力(Playwright MCP)。 第二层是 网页抓取能力(Playwright Scraper Skill)。 在浏览器能力基础上,增加反爬策略,用来抓取复杂网站。 Playwright 是浏览器自动化库 Playwright MCP 是把它变成 AI 可以调用的工具 Playwright_Scraper_Skill 是基于它写的具体爬虫逻辑 说到爬虫,这里补个题外话 还有一个我觉得挺实用的 skill:Agent Browser。智能体浏览器,它有一个视频录制、可录制操作过程的功能。

    49610编辑于 2026-03-31
  • 来自专栏IT探索

    C++ Programming skill

        ii)在COjbectCounter构造函数中让计数器m_iCount+1,析构函数中让计数器m_iCount-1;

    36210发布于 2018-08-02
  • AI Agent Skill 科普

    模板化各行各业都会出现通用的Skill模板。比如"营销文案Skill"、"客服回复Skill"、"技术文档Skill"等。 应用场景 个人助理每个人都能定制自己的AI助理,按照个人的习惯和偏好配置。 企业应用企业用Skill标准化业务流程,提高效率和一致性。比如"客服Skill"、"销售Skill"、"产品Skill"等。 生态发展 Skill市场可能会出现买卖和分享Skill的市场,让好的Skill配置能够被更多人使用。 社区协作开源社区协作完善Skill,就像现在的开源软件一样。 Q:团队如何共享Skill? A:通过共享文档、代码仓库或专门的Skill管理平台。 Q:如何处理多个Skill的冲突? A:建立Skill的优先级机制,明确哪个Skill在什么情况下生效。 生态参与参与Skill社区建设,分享经验,学习最佳实践。 未来展望 Skill普及化Skill配置将成为AI协作的标准配置,就像现在我们给手机安装APP一样自然。

    67520编辑于 2026-03-10
  • web scraper——简单的爬取数据【二】

    web scraper——安装【一】 在上文中我们已经安装好了web scraper现在我们来进行简单的爬取,就来爬取百度的实时热点吧。 http://top.baidu.com/buzz? https://pan.baidu.com/s/1W-8kGDznZZjoQIk1e6ikfQ 提取码:3dj7 爬取步骤 创建站点 打开百度热点,ctrl+shit+i进入检测工具,打开web scraper 然后回到web scraper控制台,查看信息无误后勾选multiple确认无误后,创建element的select 爬取自己想要的信息,点击进入hotList里面,然后继续创建select选择 填写具体的 再次转到web scraper的控制台后,确认无误即可保存 运行脚本,进行采集 默认配置即可,想修改也可以的,我一般直接默认的 点击开始脚本后,会将采集的页面弹出,采集完成右下角会出现提示,采集过程中点击 即可下载 数据内容 到这里使用web scraper进行数据采集就结束了

    84210编辑于 2024-08-16
  • 来自专栏程序员分享

    Skill写一个!OpenClaw 自定义 Skill 开发踩坑全记录

    为什么要自己写 Skill? OpenClaw Skill 的结构(比你想的简单)一个 Skill 其实就是一个文件夹,核心只需要一个文件:perl 体验AI代码助手 代码解读复制代码my-smart-reviewer/├── SKILL.md 第一步:写 SKILL.md这是我的 smart-reviewer SkillSKILL.md:markdown 体验AI代码助手 代码解读复制代码---name: smart-reviewerdescription Skill进阶:让 Skill 支持配置如果你想让用户自定义参数,可以在 SKILL.md 里加配置声明:yaml 体验AI代码助手 代码解读复制代码---name: smart-reviewerconfig 小结自己写 OpenClaw Skill 远没有想象中那么难,核心就是一个 SKILL.md 文件 + 可选的脚本。

    4K40编辑于 2026-03-17
  • 来自专栏编程思想之路

    带你解锁蓝牙skill(0)

    蓝牙系列文章之前言篇 0.0 一直以为自己对蓝牙很是了解,但前段时间跟一个很熟悉蓝牙的人进行交谈,才发现自己对蓝牙的学习太浅,所写的只是蓝牙最上层的东西而已,甚至可以说根本就没有扎入到蓝牙的表层,很是惭愧…..写这篇文章的目的是完善蓝牙系列博文,并给大家一个对蓝牙的整体认知。毕竟一篇好的文章不仅仅是要做到细枝末节(很显然,我距离这个还很远),也要对整体的轮廓做个概述。先是要明白蓝牙究竟是什么,有什么用,为什么要用它,这些功能又是如何实现的等等。学习过程亦是如此。如果对一个东西没有个整体印象那么又怎么能明确你

    1.2K70发布于 2018-01-24
领券